1 research outputs found

    IMAGING EMOTIONAL SOUNDS PROCESSING AT 7T

    Get PDF
    Emotional sounds and their localization are influential stimuli that we need to process all along our life. Affective information contained in sounds is primordial for the human social communications and interactions. Their accurate localization is important for the identification and reaction to environmental events. This thesis investigate the encoding of emotional sounds within auditory areas and the amygdala (AMY) using 7 Tesla fMRI. In a first experiment, we studied the encoding of emotion and vocalization and their integration in early-stage auditory areas, the voice area (VA) and the AMY. We described that the response of the early-stage auditory areas was modulated by the vocalization and by the affective content of the sounds, and that this affective modulation is independent of the category of sounds. In contrast, AMY process only the emotional part, while VA is responsible for the processing of the emotional valence specifically for the human vocalization (HV) categories. Finally, we described a functional correlation between VA and AMY in the right hemisphere for the positive vocalizations only. In a second experiment, we investigated how the spatial origin of an emotional sound (HV or non- vocalizations) modulated its processing within early-stage auditory areas and VA. We highlighted a left hemispace preference for the positive vocalizations encoded bilaterally in the primary auditory cortex (PAC). Moreover, comparison with the first study indicated that the saliency of emotional valence could be increased by spatial cues, but that the encoding of vocalization is not impacted by the spatial context. Finally, we examined the functional correlations between early-stage auditory areas and VA and how they are modulated by the sound category, the valence and the lateralization. We documented a strong coupling between VA and early-stage auditory areas during the presentation of emotional HV, but not for other environmental sounds. The category of sound modulated strongly the functional correlations between VA, PAC and auditory belt areas, while the spatial positioning induced only a weak modulation and no modulation was caused by the affective content. Overall, these studies demonstrate that the affective load modulates the processing of sounds within VA only for HV, and that this preference for vocalizations impacts the functional correlations of VA with other auditory regions. This strengthens the importance of VA as a computation hub for the processing of emotional vocalizations. -- Les sons Ă©motionnels ainsi que leur localisation sont des stimuli importants que nous devons traiter tout au long de notre vie. L’information affective contenue dans les sons est primordiale pour les communications et interactions sociales. Leur localisation correcte est importante pour l’identification et la rĂ©action par rapport aux Ă©vĂ©nements nous entourant. Cette thĂšse Ă©tudie l’encodage des sons Ă©motionnels dans les aires auditives et l’amygdale (AMY) en utilisant l’IRM fonctionnel Ă  7 Tesla. Dans une premiĂšre expĂ©rience, nous avons Ă©tudiĂ© l’encodage des Ă©motions et des vocalisations, ainsi que leur intĂ©gration dans les aires auditives primaires et non-primaires, dans l’aire des voix (VA) et dans AMY. Nous avons dĂ©crit que la rĂ©ponse des aires auditives primaires et non-primaires Ă©taient modulĂ©es par les vocalisations ainsi que par le contenu affectif des sons, et que cette modulation affective Ă©tait indĂ©pendante de la catĂ©gorie sonore. En revanche, AMY traite uniquement la partie Ă©motionnelle, tandis que la VA est responsable du traitement de la valence Ă©motionnelle spĂ©cifiquement pour les vocalisations humaines (HV). Finalement, nous avons dĂ©crit une corrĂ©lation fonctionnelle entre VA et AMY dans l’hĂ©misphĂšre droit pour les vocalisations positives uniquement. Dans une seconde expĂ©rience, nous avons cherchĂ© Ă  comprendre de quelle maniĂšre l’origine spatiale d’un son Ă©motionnel (HV et non-vocalisations) modulait son traitement dans les aires auditives, primaires et non-primaires, et VA. Nous avons mis en Ă©vidence une prĂ©fĂ©rence de l’hĂ©mi-champ gauche pour les vocalisations positive encodĂ©es bilatĂ©ralement dans le cortex auditif primaire (PAC). De plus, une comparaison avec la premiĂšre Ă©tude a indiquĂ© que l’importance de la valence Ă©motionnelle pourrait ĂȘtre augmentĂ©e grĂące aux indices spatiaux, mais que l’encodage des vocalisations n’étaient pas impactĂ© par le contexte spatial. Finalement, nous avons examinĂ© les corrĂ©lations fonctionnelles entre les aires auditives primaires, non-primaires et VA afin d’évaluer de quelle maniĂšre elles Ă©taient modulĂ©es par la catĂ©gorie sonore, la valence et la latĂ©ralisation. Nous avons mis en Ă©vidence un fort couplage entre VA et les aires auditives primaires et non-primaires durant la prĂ©sentation des HV Ă©motionnelles, mais cet effet n’était pas prĂ©sent pour les autres sons environnementaux. La catĂ©gorie sonore modulait fortement les corrĂ©lations fonctionnelles entre VA, PAC et les rĂ©gions auditives latĂ©rales, alors que le positionnement spatial n’influençait que faiblement leur modulation. De plus, il n’y avait pas de modulation causĂ©e par le contenu affectif. En rĂ©sumĂ©, ces Ă©tudes dĂ©montrent que le contenu affectif module le traitement des sons dans VA uniquement pour les HV, et que cette prĂ©fĂ©rence pour les vocalisations a un impact sur les corrĂ©lations fonctionnelles de cette rĂ©gion avec les autres rĂ©gions auditives. Cela souligne l’importance de VA comme centre computationnel pour le traitement des vocalisations Ă©motionnelles
    corecore